scrapy爬取酒店信息

本文详细介绍了如何使用Scrapy框架爬取酒店信息。首先,通过阅读官方文档并创建新项目,理解项目结构,包括配置文件、items、pipelines、settings和spiders目录。接着,定义了一个Spider,设置了start_urls,重写了parse方法,利用yield生成迭代请求。在处理过程中,遇到了返回多个request的问题,最后将数据保存为CSV文件。在Pipelines.py中处理Item对象,并在settings.py中设置保存格式和编码。需要注意的是,设置ROBOTSTXT_OBEY=False才能无视robots.txt规则,爬取所需数据。
摘要由CSDN通过智能技术生成

这个真的是说来话太长。

最先是看了scrapy的官方文档,安装成功之后就创建了一个新的工程。

然后里面自身就包含如下内容:

· scrapy.cfg: 项目的配置文件

· tutorial/: 该项目的python模块。之后您将在此加入代码。

· tutorial/items.py: 项目中的item文件.

· tutorial/pipelines.py: 项目中的pipelines文件.

· tutorial/settings.py: 项目的设置文件.

· tutorial/spiders/: 放置spider代码的目录.

首先定义一个item文件:

import scrapy
from scrapy import Item, Field
class yilongItem(scrapy.Item):
    title = scrapy.Field()
    contentnews = scrapy.Field()
    pass

创建一个Spider,继承 scrapy.Spider 类, 定义以下三个属性:

· name: 用于区别Spider。 该名字必须是唯一的,您不可以为不同的Spider设定相同的名字。

· start_urls: 包含了Spider在启动时进行爬取的url列表。 因此,第一个被获取到的页面将是其中之一。 后续的URL则从初始的URL获取到的数据中提取。

· parse() spider的一个方法。 被调用时,每个初始URL完成下载后生成的Response 对象将会作为唯一的参数传递给该函数。该方法负责解析返回的数据(response data),提取数据(生成item)以及生成需要进一步处理的URL的Request 对象。

然后在该目录下创建一个main.py文件,内容如下:

from scrapy import cmdline
user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_3) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.54 Safari/536.5'
cmdline.execute(['scrapy','crawl','yilong'])

自定义了一个py文件,我定义的是yilong.py。光是导入的就有很多很多:


                
  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值